接續上一篇。AI 為心理健康帶來的新機會,基本上跟其他醫療領域差不多:降低成本,提昇效率,隨處可及,這些是從網路時代就開始宣稱的目標;預防式醫療與個人化醫療,這是從大數據時代就開始被拿來宣傳的項目。我猜即便將來熱門技術詞彙從 AI 換成其他,這些「好處」還是會繼續被拿來炒作的。目前唯一真的有看到結果的,是「加速新藥的研發」,而背後的貢獻者們也拿到了諾貝爾化學獎,大概算是目前 AI 真正「兌現」的承諾。我相信接下來幾年 AI 還會帶來很多根本性的改變,但至於是不是那些宣傳已久的目標,其實也不見得。
這一篇算是好處說完了談壞處,有目前技術本質上的缺陷,也有人類行為與 AI 交互作用下可能帶來的衝擊,也是值得思考一下的。
AI 對現有治療模式構成的根本性挑戰
儘管 AI 帶來了巨大潛力,但它也從根本上挑戰了傳統心理治療的核心原則,主要體現在治療關係、倫理框架和臨床實踐的可靠性上。
1. 對「人際治療關係」的挑戰:
- 缺乏真正的情感理解與同理心:傳統心理治療的核心是治療師與患者之間的信任關係和情感連結。AI,特別是 LLMs,是基於模式匹配生成回應,而非真正理解上下文或情感。這種互動可能缺乏人性化的溫暖與同理心,甚至可能因為無法識別緊急情況(如自殺意念)而造成傷害。
- 「取悅用戶」的潛在風險:研究發現,LLMs 傾向於取悅使用者和強化其既有觀點(sycophantic AI),這與治療師需要適時挑戰患者思維的核心職責相悖。一個只會附和你、讓你感覺良好的「治療師」,可能無法帶來真正的成長與改變。
- 社會互動的替代效應:AI 聊天機器人可能導致用戶以「人機互動」取代「人際互動」,特別是對於那些已有社交焦慮或孤獨感的人群,這可能加劇社會隔離,而非解決根本問題。
2. 倫理、隱私與監管的挑戰:
- 數據隱私與安全:AI 心理健康工具需存取極其敏感的個人數據。這些數據是否受到 HIPAA 等法規的充分保護、如何防止數據洩露、以及用戶是否充分知情同意,都是巨大的挑戰。
- 演算法的偏見與公平性:AI 模型是從現有數據中學習的,如果訓練數據存在社會偏見(如種族、性別、社經地位),模型可能會在診斷和治療建議中延續甚至放大這些偏見,導致對弱勢群體的不公平對待。
- 責任歸屬不明:當 AI 系統做出錯誤的診斷或建議,導致不良後果時,責任應由誰承擔?是開發者、醫療機構還是使用者?這在法律和倫理上仍是模糊地帶。
- 數位精神病學監控經濟 (Psychiatric Surveillance Economy):為了提升準確性,AI 系統需要持續監控用戶的一切數位行為,這可能催生一個「精神病學監控經濟」,用戶的情緒、行為和認知在不知不覺中被演算法操縱,其影響已超出臨床範疇,擴散至日常生活。
3. 臨床可靠性與有效性的挑戰:
- 缺乏實證數據支持:儘管 AI 應用前景廣闊,但目前絕大多數系統都缺乏有力的臨床證據證明其能改善患者的治療結果。許多宣稱的效果往往基於小規模或方法論不嚴謹的研究,例如,有研究顯示某聊天機器人僅僅「優於政府宣傳手冊」。作者 Daniel Oberhaus 指出,目前沒有數據能證明 AI 治療「至少和人類治療師一樣好」。
- 診斷的複雜性與個體差異:精神疾病的診斷極為複雜,涉及主觀症狀、環境因素和個人史的細膩解讀。AI 演算法可能難以處理這種模糊性和個體差異,容易出現誤診(偽陽性)或漏診(偽陰性)。例如,研究顯示 ChatGPT 在評估自殺風險時,傾向於低估風險。
- 模型的不可預測性與「幻覺」:LLMs 的輸出具有不確定性,有時會產生看似合理但完全錯誤的資訊(即「幻覺」),這在臨床應用中是極其危險的。
沒有留言:
張貼留言